Exercice 1 : Écrire une fonction qui permet d'insérer un élément dans un tableau en décalant tous ses successeurs vers la droite. Dans un premier temps, par souci de simplification, on fait l'hypothèse que le tableau est assez grand et que les cases de droite contiennent des 0.
In [1]:
# Exemple = [2, 3, 4, 6, 7, 0, 0, 0, 0]
def decalageADroite(tab, i, derniereCase):
for a in range (derniereCase,i-1,-1):
print(a)
tab[a+1]=tab[a]
return tab
# Je suppose que je veux insérer "5" dans la case 3, et que je sais que mon tableau se finit dans la case 4
print(decalageADroite(exemple, 3, 4))
print(exemple)
In [ ]:
# Pour ceux qui voudraient utiliser des vrais tableaux en Python
from numpy import array, empty
#Création d'un tableau à partir d'une liste de valeur :
a = array([2,4,6,0,2,8])
#Création d'un tableau non initialisé :
a = empty(10, float) # taille du tableau, type d'éléments
In [ ]:
%load_ext doctestmagic
Exercice 2 : proposez une solution itérative et une solution récursive au problème du tri par sélection du minimum.
In [ ]:
#Solution itérative
def triSelection (tab):
'''
entrée / sortie :tab est un tableau d'entier
pré-cond: tab non vide
post-cond tab est trié dans l'ordre croissant
'''
b=0
min=tab[0]
for i in range (len(tab)):
for j in range (b,len(tab)):
if (tab[j]<min):
min=tab[j]
indice=j
c=tab[b]
tab[b]=tab[indice]
tab[indice]=c
b=b+1
min=c
return tab
print(triSelection([5,2,3,4]))
In [ ]:
%doctest triSelection
In [ ]:
def triSelectionR (tab,i):
'''
entrée / sortie :tab est un tableau d'entier
pré-cond: tab non vide
post-cond tab est trié dans l'ordre croissant
'''
imin=i
if i!=len(tab)-1:
for j in range(i,len(tab)):
if tab[j]<tab[imin]:
imin=j
s=tab[i]
tab[i]=tab[imin]
tab[imin]=s
return triSelectionR(tab,i+1)
else:
return tab
print(triSelectionR([3,4,2,6,1],0))
In [ ]:
#Quel est ce tri ?
def tri(tab):
'''
:entree/sortie tab: un tableau de valeurs ordonnables
:pre-cond: aucune
:post-cond: le tableau est modifié et trié par ordre croissant
>>> tri([1,5,3,2,4])
[1, 2, 3, 4, 5]
>>> tri(["pomme", "poire", "banane"])
['banane', 'poire', 'pomme']
'''
for i in range (len(tab)-1):
for j in range (i+1, len(tab)):
if tab[j]<tab[i]:
a=tab[j]
tab[j]=tab[i]
tab[i]=a
return tab
(merci à Pierre-Antoine Champin pour cette section)
La trace d'exécution d'un algorithme est constituée en prenant une "photo" de toutes les variables de cet algorithme aux instants suivants :
while
La trace est un "compte-rendu" de l'exécution de l'algorithme.
Donnez la trace d'exécution de l'algorithme suivant pour les valeurs suivantes de n : 91, 100, 500.
In [ ]:
"""
:entrée n: entier
:pré-cond n ≥ 0
:sortie r: entier
:post-cond: r est la partie entière de la racine de n
"""
## exemple d'entrées
n = 91
##
r = 0
while r*r <= n:
r = r+1
r = r-1
## pour voir la sortie
print(r)
##
On peut facilement se convaincre que la longueur de la trace sera toujours égale à r+4. En effet :
La taille de la trace est ici égale
soit (nombre de passages dans la boucle) + 3, soit r + 4.
Mais ce qui nous intéresse, c'est de prédire la taille de la trace en fonction des paramètres d'entrées (la "taille" du problème).
En l'occurence, puisque r est la partie entière de √n, on peut affirmer que la longueur de la trace est partie_entière(√n)+4, qu'on peut simplifier en disant qu'elle est proportionnelle à √n.
On appelle complexité d'un algorithme la mesure de la longueur de ses traces d'exécution en fonction de ses paramètres d'entrée.
Ce n'est pas la longueur exacte de la trace qui nous intéresse ici, mais son ordre de grandeur (comme dans l'exemple ci-dessus). C'est pourquoi on utilise la notation 𝓞(...) qui sert justement à représenter les ordres de grandeur.
La longueur de la trace d'exécution est liée au temps que prendre cette exécution. Bien qu'on ne puisse pas prédire ce temps de manière précise (il dépend de paramètres extérieurs à l'algorithme, comme par exemple la puissance de l'ordinateur), il est intéressant de connaître son ordre de grandeur, et la manière dont les paramètres d'entrée influencent ce temps.
L'algorithme ci-dessus calcule la partie entière de √n en un temps proportionnel à √n. On dira qu'il a « un temps d'exécution en 𝓞(√n) ».
On peut faire mieux avec l'algorithme ci-dessous :
In [ ]:
## exemple d'entrées
n = 91
##
min = 0
max = n
while max-min > 1:
moy = (max+min)//2
if moy*moy <= n:
min = moy
else:
max = moy
r = min
## pour voir la sortie
print(r)
##
L'algorithme ci-dessus applique une recherche dichotomique : on utilise le fait que
On part donc de l'intervalle [0,n] et on le coupe en deux à chaque étape, jusqu'à réduire cet intervalle à une largeur de 1.
Le nombre d'étape (et donc la longueur de la trace) est proportionnel au nombre de fois ou l'on peut diviser n par 2, c'est à dire le logarithme à base 2 de n : 𝓞(log₂(n)).
On peut se convaincre, avec les courbe ci-dessous, que cet algorithme est bien plus efficace que le précédent pour de grandes valeurs de n.
In [ ]:
%pylab inline
xs = range(1,300)
plot(xs, sqrt(xs), "r-", label=" √n")
plot(xs, log2(xs), "g-", label="log2(n)")
legend(loc="lower right")
La recherche dichotomique de l'algorithme ci-dessus s'arrête lorsque l'intervalle a une largeur de 1. Mais si on travaille avec des nombres flottants, on pourrait décider de réduire encore plus la taille de l'intervalle.
On définit donc un nouvel algorithme, prenant cette fois deux paramètres d'entrée :
In [ ]:
"""
:entrée x: flottant
:entrée erreur: flottant
:pré-cond x ≥ 0
:sortie r: entier
:post-cond: r est la racine de 'x' à 'erreur' près
"""
## exemple d'entrées
x=500
precision=0.001
##
# AUTRE SOLUTION #
min = 0
max = x
while max-min > erreur:
moy = (max+min)/2
if moy*moy <= x:
min = moy
else:
max = moy
r = min
## pour voir la sortie
print(r)
# et la vérifier
print(r*r)
##
L'algorithme ci-dessus a une complexité en 𝓞(log₂(n/precision), ce qui signifie que le temps d'exécution augmente lorsque n augmente, mais aussi lorsque erreur diminue. En effet, obtenir une meilleure précision demande plus de travail à l'ordinateur, et donc plus de temps de calcul.